症状检查已成为收集症状和诊断患者的重要工具,最大限度地减少临床人员的参与。我们开发了一种机器学习支持的系统,智能曲线,超越传统症状,通过与电子医疗记录(EMR)紧密的双向集成。在EMR衍生的患者历史上,我们的系统将患者的首席投诉识别自由文本条目,然后询问一系列离散问题以获得相关的症状学。患者特定数据用于预测详细的ICD-10-CM代码以及药物,实验室和成像订单。然后将患者的反应和临床决策支持(CDS)预测插入EMR。要培训机器学习组件的智能路程,我们使用了超过2500万级初级保健遭遇的新型数据集和100万患者的自由文本原因的参赛作品。这些数据集用于构建:(1)基于长的短期存储器(LSTM)的患者历史表示,(2)用于首发投诉提取的微调变压器模型,(3)一个用于问题测序的随机林模型, (4)用于CDS预测的前馈网络。我们的系统总共支持337名患者的首席投诉,该投诉共同组成了Kaiser Permanente的所有初级保健费用。
translated by 谷歌翻译
Multi-Exit models (MEMs) use an early-exit strategy to improve the accuracy and efficiency of deep neural networks (DNNs) by allowing samples to exit the network before the last layer. However, the effectiveness of MEMs in the presence of distribution shifts remains largely unexplored. Our work examines how distribution shifts generated by common image corruptions affect the accuracy/efficiency of MEMs. We find that under common corruptions, early-exiting at the first correct exit reduces the inference cost and provides a significant boost in accuracy ( 10%) over exiting at the last layer. However, with realistic early-exit strategies, which do not assume knowledge about the correct exits, MEMs still reduce inference cost but provide a marginal improvement in accuracy (1%) compared to exiting at the last layer. Moreover, the presence of distribution shift widens the gap between an MEM's maximum classification accuracy and realistic early-exit strategies by 5% on average compared with the gap on in-distribution data. Our empirical analysis shows that the lack of calibration due to a distribution shift increases the susceptibility of such early-exit strategies to exit early and increases misclassification rates. Furthermore, the lack of calibration increases the inconsistency in the predictions of the model across exits, leading to both inefficient inference and more misclassifications compared with evaluation on in-distribution data. Finally, we propose two metrics, underthinking and overthinking, that quantify the different behavior of practical early-exit strategy under distribution shifts, and provide insights into improving the practical utility of MEMs.
translated by 谷歌翻译
Continuous pseudo-labeling (PL) algorithms such as slimIPL have recently emerged as a powerful strategy for semi-supervised learning in speech recognition. In contrast with earlier strategies that alternated between training a model and generating pseudo-labels (PLs) with it, here PLs are generated in end-to-end manner as training proceeds, improving training speed and the accuracy of the final model. PL shares a common theme with teacher-student models such as distillation in that a teacher model generates targets that need to be mimicked by the student model being trained. However, interestingly, PL strategies in general use hard-labels, whereas distillation uses the distribution over labels as the target to mimic. Inspired by distillation we expect that specifying the whole distribution (aka soft-labels) over sequences as the target for unlabeled data, instead of a single best pass pseudo-labeled transcript (hard-labels) should improve PL performance and convergence. Surprisingly and unexpectedly, we find that soft-labels targets can lead to training divergence, with the model collapsing to a degenerate token distribution per frame. We hypothesize that the reason this does not happen with hard-labels is that training loss on hard-labels imposes sequence-level consistency that keeps the model from collapsing to the degenerate solution. In this paper, we show several experiments that support this hypothesis, and experiment with several regularization approaches that can ameliorate the degenerate collapse when using soft-labels. These approaches can bring the accuracy of soft-labels closer to that of hard-labels, and while they are unable to outperform them yet, they serve as a useful framework for further improvements.
translated by 谷歌翻译
宫颈癌是女性最常见的癌症类型之一。它占女性所有癌症的6-29%。它是由人类乳头状瘤病毒(HPV)引起的。宫颈癌的5年生存机会范围从17%-92%的范围内,具体取决于检测到的阶段。早期发现该疾病有助于更好地治疗患者。如今,许多深度学习算法被用于检测宫颈癌。一种被称为生成对抗网络(GAN)的深度学习技术的特殊类别正在赶上宫颈癌的筛查,检测和分类中的速度。在这项工作中,我们介绍了有关使用各种GAN模型,其应用以及用于其在宫颈癌成像领域的性能评估的评估指标的最新趋势的详细分析。
translated by 谷歌翻译
室内运动计划的重点是解决通过混乱环境导航代理的问题。迄今为止,在该领域已经完成了很多工作,但是这些方法通常无法找到计算廉价的在线路径计划和路径最佳之间的最佳平衡。除此之外,这些作品通常证明是单一启动单目标世界的最佳性。为了应对这些挑战,我们为在未知室内环境中进行导航的多个路径路径计划者和控制器堆栈,在该环境中,路点将目标与机器人必须在达到目标之前必须穿越的中介点一起。我们的方法利用全球规划师(在任何瞬间找到下一个最佳航路点),本地规划师(计划通往特定航路点的路径)以及自适应模型预测性控制策略(用于强大的系统控制和更快的操作) 。我们在一组随机生成的障碍图,中间航路点和起始目标对上评估了算法,结果表明计算成本显着降低,具有高度准确性和可靠的控制。
translated by 谷歌翻译
由于具有强大的代表性,变形金刚在包括自然语言处理(NLP),计算机视觉和语音识别在内的广泛应用中越来越受欢迎。但是,利用这种代表性的能力有效地需要大量的数据,强大的正则化或两者兼而有之以减轻过度拟合。最近,基于掩盖的自动编码器的自我监督预处理策略已解锁了变压器的功能,这些策略依赖于直接或从未掩盖的内容对比的掩蔽输入进行重建。这种预训练的策略已在NLP中的BERT模型,Speak2VEC模型中使用,最近在Vision中的MAE模型中,该模型迫使该模型使用自动编码相关的目标来了解输入不同部分中的内容之间的关系。在本文中,我们提出了一种小说但令人惊讶的简单替代内容,以预测内容的位置,而无需为其提供位置信息。这样做需要变压器仅凭内容就可以理解输入不同部分之间的位置关系。这相当于有效的实现,其中借口任务是每个输入令牌所有可能位置之间的分类问题。我们在视觉和语音基准上进行了实验,我们的方法对强有力的监督训练基准进行了改进,并且与现代的无监督/自我监督预审方法相媲美。我们的方法还可以使经过训练的变压器在没有位置嵌入的情况下胜过训练有完整位置信息的训练的变压器。
translated by 谷歌翻译
剂量体积直方图(DVH)指标是诊所中广泛接受的评估标准。但是,将这些指标纳入深度学习剂量预测模型,这是由于其非跨性别性和非差异性而具有挑战性的。我们提出了一种基于力矩的新型损失功能,用于预测具有挑战性的常规肺强度调节疗法(IMRT)计划的3D剂量分布。基于力矩的损耗函数是凸面和可区分的,并且可以轻松地将DVH指标合并到没有计算开销的任何深度学习框架中。也可以定制这些矩,以反映3D剂量预测中的临床优先级。例如,使用高阶矩可以在高剂量区域中更好地预测串行结构。我们使用了360的大型数据集(240次培训,50次进行验证,70次进行测试),使用2GY $ \ times $ 30分数的常规肺部患者使用我们机构的临床治疗计划来训练深度学习(DL)模型。我们使用计算机断层扫描(CT),计划目标体积(PTV)和风险风险轮廓(OAR)培训了UNET,例如CNN体系结构,以推断相应的素素3D剂量分布。我们评估了三种不同的损失函数:(1)流行的平均绝对误差(MAE)损失,(2)最近开发的MAE + DVH损失,以及(3)提出的MAE +矩损失。使用不同的DVH指标以及剂量得分和DVH得分比较了预测的质量,该指标最近由AAPM知识的计划大挑战挑战。具有(MAE +力矩)损耗函数的模型通过显着提高DVH得分(11%,p $ <$ 0.01),而具有相似的计算成本,从而超过了MAE损失的模型。它还优于接受(MAE+DVH)训练的模型,它可以显着提高计算成本(48%)和DVH得分(8%,p $ <$ 0.01)。
translated by 谷歌翻译
自我发挥作用机制通过在所有输入令牌之间使用成对的注意来对远程环境进行建模。在这样做时,他们假设由个体令牌(例如文本字符或图像像素)定义的固定注意粒度,这对于在较高级别上建模复杂依赖性可能不是最佳的。在本文中,我们提出了ContextPool,通过调整每个令牌的注意力粒度来解决此问题。受到与合并以捕获远程依赖关系的Convnets成功的启发,我们学会了为每个令牌汇总相邻功能,然后在给定的注意力层中计算注意力。合并的权重和支撑大小是自适应确定的,允许汇总功能以不同的规模编码有意义的上下文。我们表明,ContextPool使注意力模型更具表现力,经常以更少的层次实现强大的性能,从而大大降低了成本。实验验证我们的上下文池模块插入变压器模型时,使用几种语言和图像基准的计算较少计算,匹配或超越了最先进的性能,胜过最新的作品,这些作品具有学习的上下文大小或稀疏注意的模式,并且也适用为了进行有效的功能学习。
translated by 谷歌翻译
在肺结节表面上的尖锐/肺泡是肺癌恶性肿瘤的良好预测指标,因此是放射科医生的良好预测指标,作为标准化的肺-RADS临床评分标准的一部分。鉴于放射科医生的结节和2D切片评估的3D几何形状,手动调节/肺泡注释是一项繁琐的任务,因此,迄今为止,尚无公共数据集以探测这些临床报告在SOTA恶性预测中的重要性算法。作为本文的一部分,我们释放了一个大规模临床解释的放射线数据集,即Cirdataset,其中包含来自两个公共数据集的分段肺结节的956个放射学家QA/QC'QA/QC'spiculation/lobulation注释,Lidc-Idri(N = 883)(n = 883)(n = 883)(n = 883) lungx(n = 73)。我们还提出了一个基于多级Voxel2mesh扩展到节段结节的端到端深度学习模型(同时保留尖峰),对尖峰进行分类(尖锐/尖峰和弯曲/叶状/叶状)并执行恶性预测。先前的方法已经对LIDC和LUNGX数据集进行了恶性预测,但没有对任何临床报道/可操作的特征(由于已知的超参数敏感性问题,具有一般归因方案)。随着这种全面宣布的Cirdataset和端到端深度学习基线的发布,我们希望恶性预测方法可以验证其解释,对我们的基线进行基准测试,并提供临床上的见解。数据集,代码,预处理模型和Docker容器可在https://github.com/nadeemlab/cir上找到。
translated by 谷歌翻译
价值功能的空间是强化学习中的一个基本概念。表征其几何特性可以提供优化和表示的见解。现有作品主要关注马尔可夫决策过程(MDP)的价值空间。在本文中,我们研究了考虑过渡不确定性的更通用的稳健MDP(RMDP)设置的稳健价值空间的几何形状。具体而言,由于我们发现很难直接适应RMDP的先验方法,因此我们从重新审视非持续的情况开始,并引入了一种新的视角,使我们能够以类似的方式表征非稳定和健壮的价值空间。这种观点的关键是将价值空间以州的方式分解成超曲面的工会。通过我们的分析,我们表明稳健的值空间由一组圆锥形超曲面确定,每组都包含所有在一个状态上一致的策略的可靠值。此外,我们发现在不确定性集中仅采用极端点足以确定可靠的值空间。最后,我们讨论了有关强大价值空间的其他一些方面,包括其对多个州的非跨性别和政策协议。
translated by 谷歌翻译